52 research outputs found
Immersive ExaBrick: Visualizing Large AMR Data in the CAVE
Rendering large adaptive mesh refinement (AMR) data in real-time in virtual reality (VR) environments is a complex challenge that demands sophisticated techniques and tools. The proposed solution harnesses the ExaBrick framework and integrates it as a plugin in COVISE, a robust visualization system equipped with the VR-centric OpenCOVER render module. This setup enables direct navigation and interaction within the rendered volume in a VR environment. The user interface incorporates rendering options and functions, ensuring a smooth and interactive experience. We show that high-quality volume rendering of AMR data in VR environments at interactive rates is possible using GPUs
A Case for Data Centre Traffic Management on Software Programmable Ethernet Switches
Virtualisation first and cloud computing later has led to a consolidation of
workload in data centres that also comprises latency-sensitive application
domains such as High Performance Computing and telecommunication. These types
of applications require strict latency guarantees to maintain their Quality of
Service. In virtualised environments with their churn, this demands for
adaptability and flexibility to satisfy. At the same time, the mere scale of
the infrastructures favours commodity (Ethernet) over specialised (Infiniband)
hardware. For that purpose, this paper introduces a novel traffic management
algorithm that combines Rate-limited Strict Priority and Deficit round-robin
for latency-aware and fair scheduling respectively. In addition, we present an
implementation of this algorithm on the bmv2 P4 software switch by evaluating
it against standard priority-based and best-effort scheduling.Comment: 8th IEEE International Conference on Cloud Networking (IEEE CloudNet
2019
A Hierarchical Scheduling Model for Dynamic Soft-Realtime System
We present a new hierarchical approximation and scheduling approach for applications and tasks with multiple modes on a single processor. Our model allows for a temporal and spatial distribution of the feasibility problem for a variable set of tasks with non-deterministic and fluctuating costs at runtime. In case of overloads an optimal degradation strategy selects one of several application modes or even temporarily deactivates applications. Hence, transient and permanent bottlenecks can be overcome with an optimal system quality, which is dynamically decided. This paper gives the first comprehensive and complete overview of all aspects of our research, including a novel CBS concept to confine entire applications, an evaluation of our system by using a video-on-demand application, an outline for adding further resource dimension, and aspects of our protoype implementation based on RTSJ
Unified Container Environments for Scientific Cluster Scenarios
Providing runtime dependencies for computational workflows in shared environments,
like HPC clusters, requires appropriate management efforts from users
and administrators. Users of a cluster define the software stack required for a
workflow to execute successfully, while administrators maintain the mechanisms
to offer libraries and applications in different versions and combinations for the
users to have maximum flexibility. The Environment Modules system is the tool
of choice on bwForCluster BinAC for this purpose. In this paper, we present a
solution to execute a workflow which relies on a software stack not available via
Environment Modules on BinAC. The paper describes the usage of a containerized,
user-defined software stack for this particular problem using the Singularity
and Docker container platforms. Additionally, we present a solution for the reproducible
provisioning of identical software stacks across HPC and non-HPC
environments. The approach uses a Docker image as the basis for a Singularity
container. This allows users to define arbitrary software stacks giving them the
ability to execute their workflows across different environments, from local workstations
to HPC clusters. This approach provides identical versions of software
and libraries across all environments
SARA-Service: Langzeitverfügbarkeit und Publikation von Softwareartefakten
Das SARA-Projekt (Software Archiving of Research Artefacts) hat das Ziel, einen neuen wissenschaftlichen Dienst zu entwickeln, mit dem Forschungsdaten und Software langfristig verfügbar gemacht und publiziert werden können. Die Posterpräsentation stellt Motivation, Zielsetzung sowie wichtige Kernelemente des SARA-Service
vor.
Im Zentrum der Darstellung steht der SARA-Service, der auf Git und den dort bereitgestellten Mechanismus zur Softwareversionierung aufbaut. Hierbei fungiert ein durch die Universität Konstanz bereitgestellter und zukünftig als Landesdienst betriebener GitLab-Server als Langzeitarchiv. Nutzer können hier ihre jeweiligen Versionsstände der Software zentral speichern. Die archivierten Versionen können mit dem SARA-Service zusätzlich in einem DSpace-Repositorium veröffentlicht werden. Der neue Service soll nach Ablauf der Evaluierungsphase grundsätzlich allen Fachdisziplinen zur Verfügung stehen
SARA: Open Source Projekt zur langfristigen Verfügbarkeit und Zitierbarkeit von Software
Software spielt in vielen Disziplinen eine wichtige Rolle im Forschungsprozess – entweder zur Erfassung, Verarbeitung und Analyse von Forschungsdaten, oder die Software ist selbst Gegenstand der Forschung. Damit Forschungsergebnisse später nachvollziehbar sind, sollte die Software langfristig verfügbar und referenzierbar gemacht werden.
Mit SARA gibt es einen Webservice, der die Archivierung und Veröffentlichung von Software aus GitHub und GitLab-Instanzen auf einfache Weise ermöglicht. Dabei stehen die langfristige Verfügbarkeit der Software und ihre Zitierbarkeit über die Veröffentlichung in einem institutionellen Repositorium im Vordergrund. Der SARA Webservice bietet WissenschaftlerInnen darüber hinaus zahlreiche hilfreiche Funktionen rund um diesen Vorgang, z.B. die Möglichkeit, die Entwicklungshistorie ganz oder teilweise mitzuveröffentlichen und für Dritte zur Online-Exploration anzubieten.
Der Quellcode des SARA Webservice steht unter einer freien Lizenz. Infrastruktureinrichtungen können eine eigene SARA-Instanz aufsetzen oder gemeinsam mit anderen Einrichtungen eine Instanz nutzen.
Projektwebseite: https://sara-service.or
CiTAR – Citing and Archiving Research
While the institutional introduction of infrastructure for the collection and conservation of primary scientific data is currently under construction or already exists, a parallel problem awareness arises for the associated models and methods, in particular for data evaluation. However, there is hardly any usable infrastructure and service offerings yet. Although the DFG recommendations on "good scientific practice" currently only recommend the retention of primary scientific data, the remainder of the recommendation refers to mandatory records of "materials and methods" that are not only necessary for comprehensible results but also for the publication process.
If scientific results are to be reproducible, for example for an independent verification, a reconstruction of the experimental setup is necessary. However, in the digital age, with its extremely short life span (and availability) of hardware and software components, replicating a data processing process that is identical in all components can not be achieved solely on the basis of records.
CiTAR (Citing and Archiving Research), a three-year Baden-Württemberg state project, develops infrastructure to support computer assisted research. One major outcome of this project are means to publish, cite and provide long-term access to virtual research environments.
The aim of this project is to develop a cooperative, multidisciplinary technical-organizational service in order to support teaching and research in the further development of "good scientific practice".
The service should provide data and scientific methods jointly citable and reproducibly in order to meet the requirements of modern journals. CiTAR realizes re-use of research data and long-term availability in terms of a modern research data management. To achieve the project objectives, three of the four bwFor HPC operators have joined forces to prototype a broader scope in the natural sciences, especially the computational and data-intensive scientific disciplines.
The developed service provides automated import of virtual machines and popular container formats like Docker and Singularity. CiTAR assigns persistent identifiers to the imported research environments and provides ressources to re-run the archived objects with external data
Umsetzungskonzept der Universitäten des Landes Baden-Württemberg für das High Performance Computing (HPC), Data Intensive Computing (DIC) und Large Scale Scientific Data Management (LS² DM)
Computational Sciences1 und damit die HPC-Systeme als ihr technisches Fundament gewinnen
unablässig an Bedeutung, wie auch der Wissenschaftsrat in seinen jüngsten Empfehlungen zur
„Finanzierung des Nationalen Hoch- und Höchstleistungsrechnens in Deutschland“2 betont. Die
fortschreitende Digitalisierung der Wissenschaft generiert auf Basis verschiedener Forschungs-
infrastrukturen Forschungsdaten und damit Anforderungen, die von der schnellen Speicherung
bei der Datenerhebung, über die Verarbeitung in HPC- und Cloudsystemen bis hin zur notwen-
digen Aufarbeitung der Daten im Sinne „guter wissenschaftlicher Praxis“ reichen. Die Analyse
dieser großen Datenmengen zur Gewinnung von neuen Erkenntnissen wird Data Intensive
Computing (DIC) genannt – sie wird heute neben Theorie, Experiment und Simulation als vierte
Säule der Wissenschaft3 bezeichnet. Hinzu kommen die notwendigen technischen und organi-
satorischen Maßnahmen für eine nachhaltige Nutzung der Daten, die eine langfristige Speiche-
rung und eine nach Möglichkeit öffentliche Zugänglichkeit garantieren.
Der Erkenntnis folgend, dass diese neuen Anforderungen nicht mehr sinnvoll von einzelnen
Universitäten oder Forschungsinstitutionen bedient werden können, koordinieren die wissen-
schaftlichen Rechenzentren des Landes Baden-Württemberg ihre Aktivitäten diesbezüglich.
Gleichzeitig wollen die Landesuniversitäten den Empfehlungen des Rats für Informationsinfra-
strukturen (RfII) folgen und ihre Infrastrukturentwicklungen mit dem Aufbau einer Infrastruk-
tur für Forschungsdatenmanagement auf Basis ihrer HPC- und DATA-Konzepte verschränken.
Kooperative Lösungen helfen die beschriebenen Herausforderungen zu bewältigen und verspre-
chen einen institutionen- und disziplinübergreifenden Mehrwert.
Für die Periode von 2018 bis 2024 ist es das Ziel aller beteiligten Akteure, den beschrittenen Weg
der Kooperation gemäß der HPC Landesstrategie4 weiter zu verfolgen. Damit baut das Land Ba-
den-Württemberg ein wesentliches Alleinstellungsmerkmal bei der Unterstützung der Wissen-
schaften aus und bekundet ausdrücklich das Interesse und die Bereitschaft, in einer frühen
Phase beim Aufbau und der Entwicklung der Nationalen Forschungsdateninfrastruktur (NFDI)5
mitzuwirken. Im Sinne eines integrierten Ansatzes werden die bestehenden Konzepte für HPC,
DIC und LS2DM weiterentwickelt und in einer gemeinsamen Strategie zusammengeführt.
Gleichzeitig werden die Grundlagen für eine frühe Beteiligung am Aufbau einer NFDI geschaffen
und erforderliche Infrastrukturen bereitgestellt
Rahmenkonzept der Universitäten des Landes Baden-Württemberg für das High-Performance Computing (HPC) und Data-Intensive Computing (DIC) für den Zeitraum 2025 bis 2032
Digitale Infrastrukturen und darauf aufsetzende Dienste bilden inzwischen in fast allen Fachgebieten
das Rückgrat wissenschaftlicher Forschung. Deshalb muss die strategische Zielsetzung eines HPCKonzepts klare Antworten auf eine Vielzahl von Problemstellungen finden. Dazu zählen die stetige
Zunahme digitaler Workflows, bedingt beispielsweise durch die Verbesserung des Instrumentariums
in den Naturwissenschaften, neue Forschungsansätze in den Digital Humanities, die Verfeinerung der
Auflösung in bildgebenden Verfahren, aber auch der zunehmende Einsatz Künstlicher Intelligenz in
immer breiteren Anwendungsfeldern. Öffentlich geförderte und betriebene
Forschungsinfrastrukturen sind hier von entscheidender Bedeutung. Föderierte Strukturen erzeugen
Synergien und haben klare strategische Vorteile gegenüber vereinzelten Insellösungen, insbesondere
im Bereich High-Performance-Computing/Data Intensive Computing (HPC-DIC). Daher müssen sie im
Interesse der Nutzenden auf der lange etablierten Basis verlässlich, zukunftssicher und nachhaltig
weiterentwickelt werden. Im Sinne des Wissenschafts- und Wirtschaftsstandorts Baden-Württemberg
sollen sie eine für Menschen gemachte Digitalisierung voranbringen, moderne technische
Entwicklungen mitgestalten, zusätzliche Kreativität freisetzen, und nicht zuletzt die breite Verteilung
von Kompetenzen unterstützen. Basierend auf internationalen Standards sind digitale Dienste auf
allen Ebenen (lokal, regional, national und international) geeignet zu vernetzen. Um den Standort
Baden-Württemberg weiter attraktiv für Forscher, Entwickler und Dienstleister auszubauen, ist dies
eine unverzichtbare Voraussetzung. Die Hochschulen im Land müssen sich im Hinblick auf die
Anwerbung von IT-Fachkräften zu einem begehrten Arbeitgeber weiterentwickeln
- …